万美元

10万美元成本训练的小模型,在特定任务超越GPT-4o,延迟低99倍

现有的SOTA级别大语言模型固然拥有较强智能,在部分任务上达到或超过了人类的水准,但他们的参数尺寸动辄达到数千亿甚至万亿,无论是训练,部署,还是推理,都成本高昂。对于企业和开发者来说,这些SOTA模型在一些相对简单,但需要大规模和高并发的任务上,未必是综合成本

训练 模型 万美元 lewis fastino 2025-05-14 18:47  11